SoSe2021

Folienübersicht

Wahrscheinlichkeit

Ein paar Begriffe vorab

Zufallsereignis

= Messungen oder Resultate

Elementarereignis

= eines der möglichen Resultate

Ereignisraum \(\Omega\)

=Gesamtheit aller Elementarereignisse mit der Wahrscheinlichkeit 1 (entspricht 100%)

Beispiel

Zufällige geworfene Augenzahl bei einem Würfel.

Beispiel

Die Augenzahl 1-6 bei einem 6-seitigen Würfel.

Beispiel

  • Beim Würfel ist \(\Omega\) = {1,2,3,4,5,6} → 6 Elementarereignisse.
  • Die Wahrscheinlichkeit eines dieser Elementarereignisse zu würfeln ist 1, für ein unmögliches Ereignis beträgt sie 0.
  • Bei 2 Würfel enthält der Ereignisraum 6 * 6 = 36 Elementarereignisse:

Regeln der Wahrscheinlichkeitsrechnung

Schreibweisen: \[P(A~oder~B) = P(A \cup B)\] \[P(A~und~B) = P(A \cap B)\]

  • Regel 1: Die Wahrscheinlichkeitssumme \(P(_{\Omega})\) aller sich gegenseitig ausschließenden Ereignisse addiert sich zu 1.
  • Regel 2: Allgemeine Additionsregel für beliebige Ereignisse A und B, wobei P(A und B) subtrahiert werden muss, um Dopplung zu vermeiden.
  • Regel 3: Spezielle Additionsregel bei sich ausschließenden Ereignissen A und B.
  • Regel 4: Subtraktionsregel → Subtraktion der komplementären Wahrscheinlichkeit von 1 um P(A) zu bestimmen.
  • Regel 5: Spezielle Multiplikationsregel wenn Ereignisse A und B voneinander unabhängig sind.
  • Regel 6: Multiplikationsregel bei abhängigen Ereignissen schließt bedingte Wahrscheinlichkeit mit ein.

Anwendungsbeispiel 1: Das Problem von Galilei

Wie groß sind die Wahrscheinlichkeiten, mit 3 Würfeln eine Summe von 9 oder 10 zu erhalten?

  • Der Ereignisraum umfasst insgesamt 216 Elementarereignisse (6 * 6 * 6 = 216)
  • Die Wahrscheinlichkeit eines einzelnen Elementarereignisses ist somit 1/216 = 0.00462963
  • Wie viele Elementarereignisses ergeben in der Summe 9 bzw. 10?

Das Problem von Galilei

Summe 9

25 Elementarereignisse ergeben in der Summe 9:

Das Problem von Galilei

Summe 10

27 Elementarereignisse ergeben in der Summe 10:

Das Problem von Galilei

Theoretischer Ansatz

Wie groß sind die Wahrscheinlichkeiten, mit 3 Würfeln eine Summe von 9 oder 10 zu erhalten?

  • Der Ereignisraum umfasst insgesamt 216 Elementarereignisse (6 * 6 * 6 = 216)
  • Die Wahrscheinlichkeit eines einzelnen Elementarereignisses ist somit 1/216 = 0.00463
  • Wie viele Elementarereignisses ergeben in der Summe 9 bzw. 10? 25 bzw. 27
  • Lass uns Regel 3 (Spezielle Additionsregel bei unabhängigen Ereignissen) anwenden:
    • P(Summe 9) = 1/216 + … + 1/216 = 25/216 = 0.1157
    • P(Summe 10) = 1/216 + … + 1/216 = 27/216 = 0.1250

Das Problem von Galilei

Empirischer Ansatz

Theoretische Werte: P(Summe 9) = 0.1157 und P(Summe 10) = 0.1250

Funktion

calc_prob <- function(n = 100) {
  sum3 <- vector("integer", n)
  true9<- vector("logical", n)
  true10 <- vector("logical", n)
  
  for (i in 1:n) {
    sum3 <- sum(sample(1:6,3,replace = T))
    true9[i] <- ifelse(sum3 == 9, T, F)
    true10[i] <- ifelse(sum3 == 10, T, F)
  }
  out <- c(
    prob9 = round(sum(true9)/n, 4), 
    prob10 = round(sum(true10)/n, 4)
  )
  return(out)
}

Simulation

calc_prob(n = 20)
 prob9 prob10 
  0.30   0.05 
calc_prob(n = 20)
 prob9 prob10 
  0.25   0.00 
calc_prob(n = 20)
 prob9 prob10 
   0.1    0.1 
calc_prob(n = 100)
 prob9 prob10 
  0.13   0.19 
calc_prob(n = 100)
 prob9 prob10 
  0.13   0.06 
calc_prob(n = 100000)
 prob9 prob10 
 0.115  0.125 
calc_prob(n = 100000)
 prob9 prob10 
 0.116  0.124 

Anwendungsbeispiel 2: De-Méré-Paradoxon

Theorie

Was ist wahrscheinlicher, in vier Würfen eines einzelnen Würfels mindestens eine ‘6’ zu würfeln (Variante A) ODER in 24 Würfen eines Würfelpaars mindestens eine ‘Doppelsechs’ zu erzielen (Variante B)?

Variante A

Wahrscheinlichkeit in 4 Würfen mindestens eine 6 zu erzielen → lass uns Regel 5 und dann 4 anwenden:

  • P(viermal nicht 6) = (5/6) * (5/6) * (5/6) * (5/6) = 0.482
  • P(mindestens eine 6) = 1 - 0.482 = 0.518

Variante B

Wahrscheinlichkeit in 24 Würfen mindestens eine Doppelsechs zu erzielen → Regel 5 und 4:

  • P(keine Doppelsechs in 24 Würfen) = (35/36)^24 = 0.509
  • P(mindestens eine Doppelsechs) = 1 - 0.509 = 0.491

De-Méré-Paradoxon

Empirischer Ansatz 1

Funktion

calc_prob2 <- function(n = 100) {
  successA <- vector("logical", n)   # Variante A
  for (i in 1:n) {
    rdraw <- sample(1:6, 4, replace = TRUE)
    successA[i] <- ifelse(6 %in% rdraw, TRUE, FALSE)
  }
  probsA <- round(sum(successA)/n, 4)
  successB <- vector("logical", n)  # Variante B
  for (i in 1:n) {
    ind_success <- vector("logical", 24)
    for (j in 1:24) {
      rdraw <- sample(1:6, 2, replace = TRUE)
      ind_success[j] <- ifelse(all(rdraw == c(6,6)), TRUE, FALSE)
    }
    successB[i] <- any(ind_success)
  }  
  probsB <- round(sum(successB)/n, 4)
  out <- c(probsA = probsA, probsB = probsB)   # Ausgabe
  return(out)
}

De-Méré-Paradoxon

Empirischer Ansatz 2

Theoretische Werte: P(Variante A) = 0.518 und P(Variante B) = 0.491

Simulation

calc_prob2(n = 20)
probsA probsB 
  0.40   0.35 
calc_prob2(n = 20)
probsA probsB 
  0.55   0.70 
calc_prob2(n = 20)
probsA probsB 
  0.40   0.55 
calc_prob2(n = 100)
probsA probsB 
  0.48   0.47 
calc_prob2(n = 100)
probsA probsB 
  0.56   0.42 
calc_prob2(n = 100000)
probsA probsB 
 0.518  0.491 
calc_prob2(n = 100000)
probsA probsB 
 0.519  0.495 

Bedingte Wahrscheinlichkeit

Die bedingte Wahrscheinlichkeit eines Ereignisses B ist die Wahrscheinlichkeit, dass B eintreten wird, vorausgesetzt, dass A bereits eingetreten ist.

Mögliche Fragestellungen

Wie groß ist die Wahrscheinlichkeit, dass

  • eine getestete Person bei einem positiven Coronavirus-Schnelltest tatsächlich infiziert ist?
  • ein Individuum auf einem Bild wirklich zu Art A gehört, wenn die automatisierte Bildklassifizierung es dorthin einordnet?
  • ein/e Student/in in ein Masterprogramm aufgenommen wird UND ein Zimmer im Studentenwohnheim bekommt?

Bedingte Wahrscheinlichkeit

Beispiel Doppelsechs 1

Angenommen, wir haben im ersten Wurf eine 6 geworfen. Wie groß ist die Wahrscheinlichkeit, im nächsten Wurf ebenfalls eine 6 zu werfen? Was ist P(6|6)?

Bedingte Wahrscheinlichkeit

Beispiel Doppelsechs 2

Angenommen, wir haben im ersten Wurf eine 6 geworfen. Wie groß ist die Wahrscheinlichkeit, im nächsten Wurf ebenfalls eine 6 zu werfen? Was ist P(6|6)?

Bedingte Wahrscheinlichkeit

Beispiel Doppelsechs 3

Angenommen, wir haben im ersten Wurf eine 6 geworfen. Wie groß ist die Wahrscheinlichkeit, im nächsten Wurf ebenfalls eine 6 zu werfen? Was ist P(6|6)?

Bedingte Wahrscheinlichkeit

Beispiel Doppelsechs 4

Angenommen, wir haben im ersten Wurf eine 6 geworfen. Wie groß ist die Wahrscheinlichkeit, im nächsten Wurf ebenfalls eine 6 zu werfen? Was ist P(6|6)?

Bedingte Wahrscheinlichkeit

Beispiel Doppelsechs 5

Angenommen, wir haben im ersten Wurf eine 6 geworfen. Wie groß ist die Wahrscheinlichkeit, im nächsten Wurf ebenfalls eine 6 zu werfen? Was ist P(6|6)?

Bedingte Wahrscheinlichkeit und die Bayessche Formel

Der Satz von Bayes

  • Der Satz von Bayes, vom englischen Mathematiker Thomas Bayes entwickelt und 1763 in An essay towards solving a problem in the doctrine of chances veröffentlicht, gehört zu den wichtigsten Sätzen der Wahrscheinlichkeitsrechnung.
  • Er ermöglicht die bedingte Wahrscheinlichkeit zweier Ereignisse A und B zu bestimmen, falls eine der beiden bedingten Wahrscheinlichkeiten bereits bekannt ist.
  • Er wird auch Bayessche Formel oder Bayes-Theorem genannt.
Bildquelle: Wikimedia Commons (CCO 1.0)

Anwendungsbeispiel: Medizinische Diagnostik

Anwendungsbeispiel: Medizinische Diagnostik

Begriffe

Vorab ein paar Begriffserklärungen

  • Prävalenz: Häufigkeit einer Infektion, Krankheit oder eines Symptoms in einer Population zu einem bestimmten Zeitpunkt. Berechnet sich aus dem Quotienten der Anzahl der betroffenen Individuen und der Gesamtzahl aller Individuen dieser Population.
  • Sensitivität: Anteil richtig positiver Ergebnisse, wenn die Untersuchten tatsächlich infiziert bzw. krank sind.
  • Spezifizität: Anteil der richtig negativen Testergebnissen unter allen gesunden Untersuchten.

Typische Kreuztabelle aus der Sensitivität, Spezifität und Prävalenz:

Überblick infiziert gesund Gesamtzahl
Anzahl der untersuchten Personen Prävalenz 100000
Davon positives Testergebnis Sensitivität
Davon negatives Testergebnis Spezifizität

Anwendungsbeispiel: Medizinische Diagnostik

Frage

Ausgangssituation

Wie hoch ist die Wahrscheinlichkeit, dass eine getestete Person bei einem positiven Coronavirus-Schnelltest tatsächlich infiziert ist?

→ gesucht wird \(P(A|B)\), also \(P(infiziert|positiv)\)

Angenommen

  • Prävalenz ist 0.5% (5 von 10000 Einwohner sind infiziert)
  • Sensitivität ist 80%
  • Spezifizität ist 98%

Folgende Wahrscheinlichkeiten lassen sich daraus ableiten

  • \(P(A) = P(infiziert)\) = 0.0005 → Wahrscheinlichkeit, dass ein beliebiger Einwohner eine Corona-Infektion hat
  • \(P(B|A) = P(positiv|infiziert)\) = 0.8 → Wahrscheinlichkeit eines positiven Tests, falls die untersuchte Person infiziert ist
  • \(P(nichtB|nichtA) = P(negativ|gesund)\) = 0.98
  • \(P(nichtA) = P(gesund)\) = 1 - \(P(infiziert)\) = 0.995
  • \(P(B|nichtA) = P(positiv|gesund)\) = 1- \(P(negativ|gesund)\) = 0.02

Your turn …

03:00

Quiz 1

Berechne nun mithilfe der Bayesschen Formel die Wahrscheinlichkeit infiziert zu sein wenn das Testergebnis positiv ist → Wie hoch ist \(P(A|B)\) bzw. \(P(infiziert|positiv)\)?

Quiz 2

Und wie hoch ist \(P(A|B)\) bzw. \(P(infiziert|positiv)\) wenn die Prävalenz nicht 0.5% sondern 10% beträgt?

Quiz 3

Und wie hoch wäre die Wahrscheinlichkeit bei einem negativen Testergebnis und einer Prävalenz von 10% doch akut infiziert zu sein?

Anwendungsbeispiel: Medizinische Diagnostik

Berechnung

Einsatz der Bayesschen Regel:

\[P(infiziert|positiv) = \frac{P(infiziert)*P(positiv|infiziert)}{P(infiziert)*P(positiv|infiziert) + P(gesund)*P(positiv|gesund)}\]

Prävalenz 0.5%

# known
p_inf <- 50/100000 # prevalence
p_pos_inf <- 0.8 # sensitivity
p_neg_ges <- 0.98 # specificity
# derived
p_ges <- 1 - p_inf
p_pos_ges <- 1 - p_neg_ges
p_inf_pos <- (p_inf*p_pos_inf) / (p_inf*p_pos_inf + p_ges*p_pos_ges)
p_inf_pos*100
[1] 1.96

Prävalenz 10%

# known
p_inf <- 10000/100000 # prevalence
p_pos_inf <- 0.8 # sensitivity
p_neg_ges <- 0.98 # specificity
# derived
p_ges <- 1 - p_inf
p_pos_ges <- 1 - p_neg_ges
p_inf_pos <- (p_inf*p_pos_inf) / (p_inf*p_pos_inf + p_ges*p_pos_ges)
p_inf_pos*100
[1] 81.6

Anwendungsbeispiel: Medizinische Diagnostik

Kreuztabelle

Mithilfe einer Kreuztabelle berechnet (bei Prävalenz von 0.5%)

Überblick infiziert gesund Gesamtzahl
Anzahl der untersuchten Personen 50 99950 100000
Davon positives Testergebnis 40 2000 2040
Davon negatives Testergebnis 10 97950 97960

Von insgesamt 2040 positiven Tests sind nur 40 krank, das entspricht etwa 2%.

Mithilfe einer Kreuztabelle berechnet (bei Prävalenz von 10%)

Überblick infiziert gesund Gesamtzahl
Anzahl der untersuchten Personen 10000 90000 100000
Davon positives Testergebnis 8000 1800 9800
Davon negatives Testergebnis 2000 88200 90200

Von insgesamt 9800 positiven Tests sind 8000 infiziert, das entspricht etwa 81.6%.

Anwendungsbeispiel: Medizinische Diagnostik

RKI Infografik

Wahrscheinlichkeit vs. ‘Odds’

  • Anstatt der Wahrscheinlichkeiten werden häufig auch Odds (im deutschen ‘Chancen’) betrachtet (z.B. in Sportwetten, Medizin)
  • Odds beschreiben das Verhältnis zwischen der Wahrscheinlichkeit, dass ein Ereignis eintritt, und der Wahrscheinlichkeit, dass ein Ereignis nicht eintritt: \(Odds (O) = \frac{p(A)}{p(a-A)}\)
  • Beispiel:
    • Die Odds einen Sechser zu werfen sind O = (1/6)/(5/6) = 1/5 ⇒ die Chancen liegen also bei 1 zu 5.
    • Wenn p(A) klein ist, dann liegen p und O nahe bei einander (da 1-p = 1); wenn p(A) größer ist, z.B. 0.99, dann ist O wesentlich größer: O = 0.99/0.01 = 99

Sportwetten

Hier werden unterschiedliche ‘Odd’ Angaben genutzt:

p

‘Odd Ratios’ vs. relatives Risiko

  • Beides wird häufig in medizinischen Studien als Maß für den Zusammenhang zwischen einer Behandlung und einem Ergebnis herangezogen.
  • Der Odd Ratio (OR) (das Chancenverhältnis) wird definiert als das Verhältnis des Odd Wertes eines Ereignis A in der experimentellen Gruppe (welche z.B. einem Risiko ausgesetzt ist) und des Odd Wertes B in der Kontrollgruppe (ohne diese Faktor).
  • Das relative Risiko repräsentiert den Quotient zwischen den Wahrscheinlichkeiten beider Ereignisse.

‘Odd Ratios’ vs. relatives Risiko

Beispiel

Medizinisches Beispiel: Lohnt sich der Wechsel einer Behandlung?

  • Im Rahmen einer klinischen Studie soll eine bestehende Behandlung mit einer neuen Behandlung verglichen werden.
  • Dafür soll die Wahrscheinlichkeit eines schlechten Ergebnisses, wenn ein Patient die neue Behandlung erhält (P(A)), mit der Wahrscheinlichkeit eines schlechten Ergebnisses, wenn ein Patient die bestehende Behandlung erhält (P(B)), verglichen werden
  • Angenommen: P(A) = 0.1 und P(B) = 0.2

Berechnung

p_A <- 0.1
p_B <- 0.2
# relative risk:
p_A/p_B
[1] 0.5
# odd ratio:
(p_A / (1-p_A)) / (p_B / (1-p_B))
[1] 0.444
  • → Die Chancen (und damit die Wahrscheinlichkeit) eines schlechten Ergebnisses werden durch die Einnahme der neuen Behandlung reduziert. Oder anders ausgedrückt, die Wahrscheinlichkeit verringert sich um den Faktor 0.444 bzw. um ca. 56 %.
  • → Das Risiko eines schlechten Ergebnisses unter der neuen Behandlung ist halb so hoch ist wie unter der bestehenden Behandlung.

Erwartungswert

  • Zur Erinnerung: Arithmetisches Mittel = Summe aller beobachteten Werte / Anzahl der Werte.
  • Der Erwartungswert einer Zufallsvariablen beschreibt hingegen die Zahl, die die Zufallsvariable im Mittel annimmt (bei unbegrenzter Wiederholung des zugrunde liegenden Experiments).
  • Er berechnet sich aus der Summe jedes möglichen Ereignisses gewichtet mit der Wahrscheinlichkeit, dass es eintreten wird: \(E(x) = \sum x_i*p_i\)

Beispiel: Spielautomat → Wie groß ist der durchschnittliche Gewinn?

1€ Spieleinsatz

Wahrscheinlichkeitstabelle:

Spielgewinn P
0 0.3
0.10€ 0.4
0.25€ 0.2
1.00€ 0.1

Berechnung:

E_x <- 0*0.3 + 0.4*0.1 + 0.2*0.25 + 0.1*1
E_x
[1] 0.19
  • → Der zu erwartende Gewinn (Erwartungswert E(x)) beträgt 11 Cent.
  • → Somit verdient der Automatenbetreiber 81 Cent pro Spiel.

Wir fassen zusammen

Wie wird Wahrscheinlichkeit definiert?

Objektivistischer Wahrscheinlichkeitsbegriff

Klassischer Ansatz (LaPlace, Bernoulli) → aus dem Glücksspiel entwickelt

  • Quotient aus der Zahl der günstigen und der Zahl aller möglichen Fälle.
  • Ein einzelner Versuch hat endlich viele, gleich wahrscheinliche Ausgänge (der ideale Würfel).
  • Elementarereignisse besitzen hierbei gleiche A-priori-Eintrittswahrscheinlichkeiten.

Statistische bzw. empirische Wahrscheinlichkeit → Frequentisten

  • Beruht auf der gemessenen Häufigkeit eines bestimmten Ereignisses.
  • \(P\) entspricht dem Grenzwert der relativen Häufigkeiten des Auftretens des Ereignisses: \(lim(rel.Häufigkeit)=\frac{lim(Anzahl~Ereignis)}{Stichprobenzahl}\) (denkt an die Würfelexperimente mit 20 vs. 100000 Versuchen)

Wir fassen zusammen

Wie wird Wahrscheinlichkeit definiert?

Subjektivistische Wahrscheinlichkeitsauffassung

Bayes’scher Wahrscheinlichkeitsbegriff

  • Darf nicht mit dem gleichfalls auf Thomas Bayes zurückgehenden Satz von Bayes verwechselt werden.
  • Bei einmaligen Zufallsereignissen kann man deren Eintrittswahrscheinlichkeit nur schätzen, nicht berechnen.
  • Zentrale Gesichtspunkte bei der Schätzung sind Expertenwissen, Erfahrung und Intuition.
  • Spielt v.a. im Alltag eine große Rolle

Wir fassen zusammen

Wie wird Wahrscheinlichkeit definiert?

Axiomatischer Wahrscheinlichkeitsbegriff

Axiome von Kolmogorow

  • Definiert die mathematischen Eigenschaften der Wahrscheinlichkeit.
  • Wurde in den 1930ern von Andrei Kolmogorov entwickelt und repräsentiert die maßgebende Definition in der heutigen Mathematik.
  • Es gibt 3 Axiome:
    • Axiom 1: Die Wahrscheinlichkeit ist nicht negativ und liegt zwischen 0 und 1 → \(0 ≤ P(A) ≤ 1\)
    • Axiom 2: Das Ereignis, das alle möglichen Ereignisse eines Zufallsexperimentes vereinigt hat die Wahrscheinlichkeit 1 (\(P(\Omega) = 1\) → Regel 1).
    • Axiom 3: Die Wahrscheinlichkeiten zweier sich ausschließender Ereignisse können ohne Abzug addiert werden (= spezielle Additionsregel).

Wir fassen zusammen

Was ist die Wahrscheinlichkeitstheorie?

  • Die Wahrscheinlichkeitstheorie oder Probabilistik ist ein Teilgebiet der Mathematik, das aus der Formalisierung, der Modellierung und der Untersuchung von Zufallsgeschehen hervorgegangen ist.
  • Gemeinsam mit der mathematischen Statistik, die anhand von Beobachtungen zufälliger Vorgänge Aussagen über das zugrunde liegende Modell trifft, bildet sie das mathematische Teilgebiet der Stochastik.
  • Zentralen Objekte der Wahrscheinlichkeitstheorie sind zufällige Ereignisse, Zufallsvariablen und stochastische Prozesse.

Fragen?